Новости Статьи Российское ПО VMware Veeam StarWind vStack Microsoft Citrix Symantec События Релизы Видео Контакты Авторы RSS
Виртуализация и виртуальные машины

Все самое нужное о виртуализации и облаках

Более 6470 заметок о VMware, AWS, Azure, Veeam, Kubernetes и других

VM Guru | Ссылка дня: Полный список лабораторных работ VMware Hands-on Labs

Технология Transparent Page Sharng (TPS) будет отключена по умолчанию в следующих релизах и обновлениях VMware vSphere.


Четыре с половиной года назад мы писали про то, что у технологии Transparent Page Sharing (TPS), которая по-умолчанию используется в VMware vSphere, нет будущего. Напомним, что TPS - это механизм поиска и удаления дубликатов страниц памяти в целях экономии физического пространства RAM (вместо самой дублирующейся страницы хранится ссылка на нее).

Технолония потеряла актуальность, когда вовсю стали применяться большие страницы памяти (Large Memory Pages), для которых размер страницы равен 2 МБ, а значит вероятность появления двух полностью одинаковых страниц очень низка.

Ну вот и пришло время эту технологию отключать. На днях компания VMware выпустила статью базы знаний "Security considerations and disallowing inter-Virtual Machine Transparent Page Sharing", в которой заявляется о том, что в будущих релизах платформы виртуализации VMware vSphere функции TPS будут по умолчанию отключены (хотя и доступны).

Это во многом связано с тем, что TPS (помимо негативного влияния на производительность хоста) - это еще и потенциальный источник проблем, связанных с неавторизованным доступом к данным оперативной памяти. Эти моменты основаны на аналитическом исследовании, выводы из которого опубликованы в статье базы знаний "Additional Transparent Page Sharing management capabilities in ESXi 5.5 patch October 16, 2014 and ESXi 5.1 and 5.0 patches in Q4, 2014 (2091682)".

Вот когда TPS будет отключен в VMware vSphere:

  • ESXi 5.5 Update release – Q1 2015
  • ESXi 5.1 Update release – Q4 2014
  • ESXi 5.0 Update release – Q1 2015
  • VMware ESX 6.x и более поздние версии

Более подробно о проблемах с TPS написано вот в этой статье на блогах VMware.

Если же вы хотите отключить этот механизм уже прямо сейчас, то нужно сделать следующее:

  1. Залогиниться на ESX\ESXi или vCenter Server через vSphere Client.
  2. Выбрать нужный хост и зайти на вкладку Configuration, затем перейти в Advanced Settings в секции Software.
  3. Выбираем раздел Mem и в нем устанавливаем значение параметра Mem.ShareScanGHz в 0.

После патча и обновлений ESXi механизм TPS можно будет включить следующим образом (Advanced Settings в секции Software):

  • Параметр Mem.ShareForceSalting (включение TPS на уровне всего хоста ESXi). Если значение стоит 0 - то значит TPS по-прежнему работает на хосте, если 1 - механизм отключен.
  • Параметр sched.mem.pshare.salt (ставится на уровне ВМ) позволяет включать/отключать TPS для отдельных виртуальных машин (например, старые Windows или линуксы - для них можно было бы включить). Когда параметр ShareForceSalting установлен в значение 1, то для нуждающихся в TPS машин в их Advanced Configuration нужно установить одинаковые значения "соли". Без этого TPS не работает - соответственно, он отключен.

Таги: VMware, vSphere, TPS, Memory, Performance, Security, Update

Новая функция Backup I/O Control в Veeam Backup & Replication v8 как средство соблюдения SLA для приложений.


Некоторые из вас знают, что сейчас в Лас-Вегасе проходит конференция VeeamOn 2014 - первое всемирное офлайн-событие компании Veeam Software, производящей продукт для резервного копирования виртуальных машин номер один на рынке - Veeam Backup and Replication.

Недавно мы писали о новой версии Veeam B&R v8, а на конференции специалисты Veeam рассказали множество интересных подробностей о новых фичах. Одна из таких функций - Backup I/O Control - позволяет ограничивать производительность процедуры резервного копирования на отдельном хранилище.

Veeam очень много сделала в технологическом плане, чтобы бэкапы с хранилища виртуальных машин снимались как можно быстрее - это и распараллеливание задач, и интеллектуальный выбор бэкап-прокси, и многое другое. В итоге бэкапы стали сниматься очень быстро, даже слишком быстро.

Для обычных компаний, системы которых не работают по ночам - это очень хорошо, бэкап отработал ночью, а днем пользователи спокойно работают, а вот для тех компаний, чьи серверы полностью загружены в режиме 24/7, нагрузка хранилищ задачами резервного копирования может оказаться существенной и негативно сказаться на производительности продуктивных систем.

Для этого в Veeam Backup and Replication есть ограничение числа задач, которые могут исполняться одновременно на бэкап-прокси:

Однако это совсем неудобно - непонятно, как и на что это влияет при выполнении операций резервного копирования, потому и была придумана возможность Backup I/O Control, которая ограничивает процесс РК таким образом, чтобы соблюсти требования по производительности хранилищ для нормальной работы виртуальных машин и приложений.

А что является главным мерилом производительности (ну, одним из главных)? Это задержка при операциях чтения-записи, то есть latency. Так вот функция Backup I/O Control в Veeam Backup & Replication v8 позволяет вам указать требуемое latency при превышении которого задача резервного копирования будет "урезаться" и создавать меньшую нагрузку на хранилище:

Если мы укажем данные значения, то при достижении Latency 20 мс новые задачи для данного хранилища перестанут назначаться, а вот если уже вырастет до 30 мс, то и вовсе нагрузка текущих задач будет уменьшена, чтобы соблюсти требования по SLA.

Пример как это работает. Для текущей нагрузки операций резервного копирования включаем функцию Backup I/O Control и нагрузка РК снижается так, чтобы средний уровень latency не превышал 20 мс (зеленая линия). Отключаем эту фичу - и видим, что задержка снова начинает расти, то есть бэкап разгоняется, создавая большую нагрузку.

Конечно же, включение функции Backup I/O Control увеличивает требования к окну резервного копирования, зато позволяет на абсолютно понятном уровне установить устраивающие значения для хранилищ, превышать которые задачи Veeam B&R не будут. Очень удобно.

Для версии Veeam Backup and Replication Enterprise такие настройки можно установить только глобально, а вот в версии Enterprise Plus это уже можно сделать для каждого датастора в отдельности:

Продолжаем следить за новостями с VeeamOn. Выпуск Veeam Backup & Replication v8 ожидается в четвертом квартале этого года, то есть вот-вот.


Таги: Veeam, Backup, Update, Storage, Performance, Enterprise

Тормозит VMware vSphere Web Client? Удалите ненужные плагины!


Те из вас, кто много всего устанавливает в своей тестовой лаборатории или продакшен-среде VMware vSphere, наверное рано или поздно сталкиваются с тем, что vSphere Web Client очень медленно грузится (иногда по 2-3 минуты) или тормозит при работе в нем.

Одна из возможных причин тормозов - наличие установленных плагинов, которые может быть вам уже и не нужны, а отъедают системные ресурсы.

Поэтому иногда целесообразно удалить их. Идем в Managed Object Browser (MOB) на сервере vCenter, для чего переходим в браузере по такой ссылке:

http://<vcenter_name_or_IP>/mob

Далее после аутентификации переходим в раздел "content" (здесь и далее необходимые ссылки подсвечены желтым):

Затем переходим в раздел ExtensionManager:

Там нам нужно найти соответствующий плагин для удаления. Вот таблица всех плагинов VMware, которые могут быть подцеплены к Web Client:

Например, нам надо из vSphere Client удалить плагин vSphere Data Protection, находим его (записываем - все, что в квадратных скобках без кавычек) и проваливаемся дальше:

Вызываем для него метод UnregisterExtension:

В качестве значения при вызове метода указываем имя плагина, например, "com.vmware.vdp":

После успешного вызова метода он должен возвратить результат "void":

Таким вот нехитрым способом можно удалить все лишние плагины с сервера, где установлен vSphere Web Client, после чего последний станет значительно быстрее запускаться.

Идея и картинки взяты здесь.


Таги: VMware, Web Client, Troubleshooting, vSphere, Update, Performance

Компания Login VSI представила бета-версию продукта Login VUM для симуляции VDI-нагрузки в реальном времени + графический фреймворк.


Многие из вас знают компанию Login VSI, которая выпускает продукт Virtual Session Indexer (VSI), предназначенный для симуляции нагрузки и тестирования VDI-сред. Он уже успел стать стандартом де-факто при тестировании инфраструктуры виртуальных ПК у различных вендоров (например, см. тут). Напомним, что это коммерческое решение, а для бесплатного использования доступен продукт VSI Express.

Теперь компания решила подойти к тестированию VDI-инфраструктуры немного с другой стороны - на прошедшей конференции VMware VMworld 2014 была представлена бета-версия продукта Login VUM.

Это решение позволяет в реальном времени создавать нагрузку в виртуальном ПК для различных приложений (то есть открывать окна, выполнять некоторые операции), будто бы за этой виртуальной машиной работает реальный пользователь. Далее, если время выполнения стандартных операций превышает некоторые пороговые значения (например, приложение запускается слишком долго), Login VUM оповещает системного администратора о возникшей проблеме. Похожий способ используют в Водоканале Санкт-Петербурга - раков, обвешанных датчиками, держат в очищенной воде и измеряют их сердечный ритм, отклонения которого свидетельствуют об изменении качества подаваемой потребителям воды.

То есть, это способ мониторинга реальной производительности виртуальной среды посредством некой эталонной виртуальной машины, симулирующей реальную нагрузку. В веб-консоли можно наблюдать за значениями различных параметров этой машины, полученных в течение дня:

Само собой, Login VUM написан не с нуля, а основан на фреймворке Login VSI (технология измерений VSImax), который уже надежно зарекомендовал себя для задач тестирования инфраструктуры виртуальных ПК.

Пока продукт находится в стадии закрытой беты, но его уже можно будет скачать совсем скоро.

Также Login VSI представила свой графический фреймворк Login VSI: Graphics Framework, который позволяет отдельно тестировать чувствительные к производительности графики нагрузки в виртуальных ПК (такие как AutoCAD, Siemens NX или Photoshop). Фреймворк доступен для пользователей продукта Login VSI Pro.

Пример измерения фреймрейта для Автокада при увеличении числа сессий на хосте ESXi:

Видео о том, как выглядит процедура тестирования интенсивных графических нагрузок:

В результате тестирования данные не попадают в VSImax, так как администратору предлагается самостоятельно решить, какой фреймрейт подходит пользователям VDI-инфраструктуры для конкретного приложения и типа нагрузки.

На данный момент Login VSI: Graphics Framework доступен как публичная бета по этой ссылке.


Таги: Login VSI, VUM, Performance, VDI, VMware, View

Анонсы NVIDIA на VMworld 2014 и режим vGPU - пара видеороликов.


Как мы уже писали вот тут, компания NVIDIA на прошедшем VMworld US 2014 рассказала о скорой полноценной поддержке технологии vGPU на платформе VMware Horizon View для виртуальных ПК с интенсивными графическими нагрузками.

Для хромбуков появится технология VMware BLAST Performance, которая обеспечит максимальную производительность 3D-графики. Хромбуки на базе NVIDIA Tegra K1, такие, как Acer Chromebook 13, первыми получат поддержку это передовой технологии.

Теперь вот появился небольшой обзор о том, как это будет работать на хромбуках, и премуществах технологии (выглядит впечатляюще):

Также есть небольшое видео с VMworld о сотрудничестве VMware и NVIDIA:

Ну и, наконец, демонстрация графических возможностей железа NVIDIA при работе на платформе VMware:

Ну и для тех, кому не терпится опробовать адаптеры NVIDIA и режим vGPU совместно с платформой VMware в действии, есть вот такой ресурс - Early Access Program.


Таги: VMware, NVIDIA, Update, Performance, VDI, vGPU

Производительность Microsoft Exchange Server в кластере VMware Virtual SAN.


Компания VMware выпустила интересный документ "Microsoft Exchange Server Performance on VMware Virtual SAN", в котором рассматривается случай тестирования нагрузки виртуальных серверов Microsoft Exchange размещенных в кластере Virtual SAN и работающих на серверах VMware ESXi.

В VMware использовали конфигурацию кластера VSAN из пяти узлов (Dell PowerEdge R720xd с процессорами Intel Xeon Processors E5-2650 и 128 ГБ памяти в каждом), на одном из узлов была машина с контроллером Active Directory, а для генерации нагрузки использовался отдельный клиент:

Детальная конфигурация стенда:

В качестве программной платформы использовался Exchange Server 2010, установленный в ОС Windows Server 2008 R2. На каждом хосте было размещено две виртуальных машины с Exchange - роли Mailbox и HUB.

С помощью Exchange Load Generator была сгенерирована нагрузка пользователей отсылающих и получающих письма. Для теста взяли 12 000, 16 000 и 20 000 пользователей с профилем нагрузки 150 отправляемых писем в день. Каждый почтовый ящик был инициализирован в размере 100 МБ.

При тестах Sendmail на указанном количестве пользователей выведен средний результат выполнения операций (Avg) и результат, уложившийся в 95 процентов опытов (95% latency).

Поскольку принято считать, что Latency до 500 миллисекунд для Exchange считается нормальной при отправке писем - то результаты тестов показывают, что такая конфигурация вполне жизнеспособна на десятках тысяч пользователей.

Больше подробностей можно узнать непосредственно из документа.


Таги: VMware, Virtual SAN, Exchange, Microsoft, Storage, Performance

Тестирование NetApp E2700


Это гостевой пост компании ИТ-ГРАД - облачного провайдера инфраструктур VMware vSphere.

Мне давно не попадался на тесты массив начального уровня, способный пропустить через один контроллер до 1.5 Гб/сек при потоковой нагрузке. NetApp E2700 как раз справился с этой задачей. В июне я провёл Unboxing NetApp E2700. И теперь готов поделиться с вами результатами тестирования этой системы хранения данных. Ниже привожу результаты нагрузочных тестов и получившиеся количественные показатели производительности массива NetApp E-Series 2700 (IOps, Throughput, Latency).

Конфигурация дискового массива следующая:

Схема подключения массива к серверу:

И конфигурация тестового сервера...[читать дальше и комментировать]


Таги: IT-Grad, NetApp, Hardware, Performance

Обновился VMware I/O Analyzer на VMware Labs - новые возможности.


Почти три года назад мы писали про средство VMware I/O Analyzer, предназначенное для генерации нагрузки и анализа статистики ввода-вывода хостов VMware ESXi, доступное на сайте проекта VMware Labs. Не так давно вышло обновление этого средства, которое, как оказалось, живет и развивается.

VMware I/O Analyzer поставляется в виде виртуального модуля (готовой ВМ), предоставляющего администраторам следующие возможности:

  • Интегрированный фрейворк для тестирования производительности хранилищ средствами генераторов нагрузки.
  • Готовый к развертыванию виртуальный модуль (управляющая ВМ и "воркеры" - генераторы нагрузки).
  • Прост в настройке и возможность исполнения тестов на одном или нескольких хостах ESX/ESXi.
  • Возможность просмотра результатов производительности как на уровне хоста, так и на уровне гостевой ОС.
  • Возможность экспорта данных для последующего анализа.
  • Средства "повторения" нагрузки на хранилища путем ее воспроизведения из трейса ввода-вывода.
  • Возможность загрузки трейсов ввода-вывода для автоматического извлечения необходимых метрик.
  • Графическая визуализация метрик и результатов анализа производительности.

В обновленном VMware I/O Analyzer 1.6.x появились следующие возможности:

  • Улучшенный планировщик заданий ввода-вывода.
  • Сам виртуальный модуль теперь на платформе SLES 64-bit, а сервер на Tomcat 6.
  • Экспериментальная поддержка статистик клиента NFS.
  • Возможность использования непостоянной (non-persistent) конфигурации (без сохранения настроек).
  • Сама ВМ с I/O Analyzer теперь версии 7, что позволяет запускать и использовать ее в ESX/ESXi 4.x.
  • Улучшения на бэкэнде, позволяющие поддерживать до 240 и более генераторов нагрузки.

На самом деле с 2011 года много что изменилось в этом продукте, поэтому ознакомьтесь с юзер-гайдом, в котором есть история добавления фичей по версиям.

Скачать VMware I/O Analyzer можно по этой ссылке. Очень хорошо, что подобные утилиты не ограничиваются одним релизом, а развиваются и обрастают функционалом.


Таги: VMware, Storage, Performance, Analyzer, vSphere, ESXi, VMachines, Virtual Appliance

Мудрые мысли о локальности данных в документе "Understanding Data Locality in VMware Virtual SAN".


Некоторое время назад компания VMware выпустила интересный документ "Understanding Data Locality in VMware Virtual SAN", касающийся локальности данных, то есть механизмов соблюдения временных и пространственных характеристик правильного чтения данных в целях оптимизации производительности кластера хранилищ Virtual SAN.

Мысль тут такая: локальность данных бывает двух типов:

  • временная (Temporal locality) - это когда есть вероятность, что данные, использованные сейчас, потребуются снова в ближайшее время (это актуально, поскольку в инфраструктуре виртуализации несколько машин на хосте часто используют одни и те же данные).
  • пространственная (Spatial locality) - ситуация, когда есть вероятность, что после чтения некоторой области данных потребуется прочитать и данные находящиеся рядом - то есть в соседних блоках на хранилище.

Так вот, в документе подробно разбирается, каким именно образом обеспечивается работа с этими особенностями локальности данных применительно к кэшированию данных на хранилищах SSD хостов VMware ESXi.

Примерами работы с локальностью данных являются следующие особенности кластеров Virtual SAN:

  • Каждый раз, когда виртуальная машина читает данные с хранилища, они сохраняются в кэше (Read Cache) на SSD-накопителе и эти данные могут быть востребованы очень быстро. Это работа с Temporal locality.
  • С точки зрения Spatial locality, при кэшировании данных в кэш сохраняется также и "окрестность" этих данных в рамках чанков по 1 МБ.
  • Virtual SAN имеет адаптивный алгоритм по вытеснению и сохранению данных в кэше - если данные используются редко, они выпадают с SSD-накопителя, а часто востребованные данные будут находиться там постоянно.
  • Virtual SAN распределяет экземпляры данных по разным хост-серверам ESXi и работает при чтении сразу с несколькими узлами, но при чтении одного диапазона логических адресов работа идет только с одной репликой. Обусловлено это двумя фактораи: во-первых, увеличивается шанс того, что читаемые данные уже находятся в кэше на SSD, а значит будут прочитаны быстрее, ну и, во-вторых, один блок данных всегда будет закэширован только на одном узле, а значит дорогое SSD-пространство не будет пожираться дубликатами блоков.

В общем документ очень интересный - почитайте. Там еще много полезной информации на эту тему.


Таги: VMware, Virtual SAN, Performance, Whitepaper

Новый документ - Intel Data Plane Development Kit with VMware vSphere.


Компании VMware и Intel в партнерстве выпустили новый документ "Intel Data Plane Development Kit with VMware vSphere" (DPDK), который описывает работу с данной библиотекой приложений Linux User Space. Она позволяет на высоком уровне работать с подсистемой ввода-вывода и сетевого взаимодействия и на программном уровне обрабатывать то, что ранее необходимо было делать только на аппаратном для высоконагруженных систем, например, Application-specific integrated circuits (ASICs) и Field programmable gate arrays (FPGAs).

Данный DPDK с использованием техник паравиртуализации позволяет напрямую обращаться к аппаратным функциям оборудования или виртуальных устройств VMware vSphere.

Решение DPDK with VMware vSphere может быть использовано для миграции систем (обычно в сфере телекома и какого-то необычного сетевого взаимодействия), которые раньше были жестко завязаны на аппаратные функции "железа", на платформу VMware vSphere.

При использовании DPDK можно взаимодействовать со следующими механизмами VMware vSphere:

  • Виртуальный сетевой адаптер VMXNET3
  • Коммутаторы vSwitch и Virtual Distributed Switch
  • Прямой проброс устройств через VMware vSphere DirectPath I/O или технологию SR-IOV

Стандартная реализация паравиртуализационного взаимодействия гостевой ОС через vSwitch и VDS выглядит так:

Если речь идет о пробросе устройств напрямую в ОС, то схема выглядит следующим образом:

Больше интересных подробностей можно узнать в самом документе.


Таги: VMware, Intel, DPDK, SDK, Linux, ESXi, VMachines, Performance, P2V

Выравнивание блоков для хранилищ VMware Virtual SAN - нужно ли?


Те из вас, кто еще застал VMware ESX 2.x-3.x, наверняка помнят, что в VMware vSphere несколько лет назад иногда возникала проблема некорректного выравнивания блоков на двух уровнях - гостевой ОС по одношению к VMFS и VMFS по отношению к блокам дискового массива (подробнее здесь и здесь):

В такой ситуации смещения блоков на разных уровнях (гостевая ОС, VMFS, дисковый массив) чтение одного кластера в ОС виртуальной машины потенциально могло привести к чтению сразу трех чанков дискового массива.

Были даже специальные утилиты (о них мы писали тут и тут), которые занимались этой проблемой и позволяли получить вот такую правильную картинку, где чтение одного кластера в гостевой ОС приводило к чтению только одного чанка дискового массива.

Выравнивание на стороне файловой системы VMFS было реализовано еще в VMFS-3 (для vSphere 3.x и 4.x), где стартовый Logical Block Address (LBA) выставлялся в значение 128, а в VMFS-5 (начиная с vSphere 5.x) выравнивается по LBA 2048.

Корректное выравнивание в гостевых ОС Windows было также реализовано достаточно давно, начиная с Windows Server 2008 и Windows Vista (естественно, и в версиях 7/8 тоже), начало партиций уже выровнено как положено.

Как же дела обстоят с хранилищами VMware Virtual SAN, которые не используют VMFS?

Тут надо понимать два момента:

1. Virtual SAN использует свое собственное нативное хранилище объектов, и не использует VMFS, поэтому проблем VMFS<->хранилище и VMFS<->гостевая ОС не существует.

2. Проблема гостевая ОС<->хранилище потенциально может существовать для старых ОС (например, Windows Server 2003), однако даже в этом случае она будет мало влиять на производительность.

И вот почему проблема выравнивания блоков в среде VMware VSAN является надуманной:

1. Все операции записи идут через SSD-накопитель как буфер, где они складываются в пачки и только потом идут на HDD, соответственно, импакта тут нет.

2. Операции чтения также обслуживаются кэшем на SSD (vFRC), поэтому тут тоже почти не будет потерь производительности в невыровненной конфигурации.

Поэтому, вывод один - не заморачивайтесь проблемой выравнивания блоков в среде VMware Virtual SAN.


Таги: VMware, Storage, Virtual SAN, VSAN, Performance

Вышло обновление средства для бенчмаркинга и анализа производительности VDI-инфраструктуры Login Consultants Virtual Session Indexer (VSI) 4.1 - новые возможности.


Многие из вас знают о компании Login Consultants, которая занимается тестированием гипервизоров и ПО для виртуализации настольных ПК. Она делает хорошие сравнения в виде технических документов, а также наглядных демонстраций. Выпускаемый компанией инструмент VSI (Virtual Session Indexer) для симуляции нагрузки и тестирования VDI-сред стал стандартом де-факто при тестировании инфраструктуры виртуальных ПК у различных вендоров (например, см. тут). Напомним, что это коммерческое решение, а для бесплатного использования доступен продукт VSI Express.

Совсем недавно вышло обновление - Login Consultants Virtual Session Indexer (VSI) 4.1, в котором, несмотря на незначительное продвижение номера версии, появилось достаточно много всего нового.

Напомним, что средство Login VSI является вендоронезависимым, поэтому с его помощью можно тестировать любое VDI-решение, которое есть сегодня на рынке.

Итак, что нового:

1. Появилось 4 новых типа пользовательских нагрузок:

  • Task
  • Office (1vCPU)
  • Knowledge (2vCPU)
  • Power user

Можно создать и свой собственный профиль нагрузки на базе ваших корпоративных приложений.

2. Улучшения компонента Login VSI Analyzer.

Теперь это средство может собирать данные через VMware esxtop и Microsoft Windows Performance Monitor (есть возможность объединения данных от разных источников), обрабатывать их и делать выводы об "узких местах" VDI-инфраструктуры.

Работает это так: например, у вас есть график, где по горизонтали отложено количество виртуальных ПК на сервер ESXi, а по вертикали - время отклика. Провели два теста для нагрузки на ПК с ОС Windows 7 и Microsoft Office 2010 на борту. В одном тесте для достижения трэшхолда по отклику удалось разместить 148 сессий пользователей, а вот в другом - только 112 (кликабельно).

Надо выяснить, в чем дело - почему теперь на сервере помещается меньше пользователей? Накладываем график загрузки CPU и дисков и видим, что загрузка процессора достигает 100%, когда число пользователей переваливает за границу 112.

Таким образом, Virtual Session Indexer 4.1 позволяет не только получать информацию о производительности своей VDI-инфраструктуры, но и решать подобного рода проблемы, а также отвечать на вопрос, где ресурсов не хватает, а где наоборот переизбыток.

Скачать Login VSI 4.1 можно по этой ссылке. Если у вас уже есть версия 4.0, то вы просто можете скачать патч. Скриншоты продукта можно скачать тут.


Таги: Login VSI, VDI, Performance, Troubleshooting

Производительность различных типов дисков на флэш-массивах: Thin / Lazy Thick / Eager Thick.


Одна из самых популярных статей на VM Guru - это статья про типы дисков виртуальных машин на платформе VMware vSphere. Там рассказано про все имеющиеся виды виртуальных дисков, среди которых можно выделить три основных:

  • Lazy zeroed thick disks - все пространство диска выделяется в момент создания, при этом блоки не очищаются от данных, которые находились там ранее. Но при первом обращении ВМ к этому блоку он обнуляется.
  • Eager zeroed thick disks - все пространство такого диска выделяется в момент создания, при этом блоки очищаются от данных, которые находились там ранее. Далее происходит обычная работа с блоками без очистки.
  • Thin disks ("тонкие диски") - эти диски создаются минимального размера и растут по мере их наполнения данными до выделенного объема. При выделении нового блока - он предварительно очищается. Эти диски экономят пространство на массиве, так как не забивают его нулями и не требуют аллокации заданного объема.

Между администраторами VMware vSphere очень часто возникает дискуссия: диски какого типа нужно создавать, особенно если дело касается высоких нагрузок ВМ на дисковую подсистему? Сейчас это становится актуальным и для флэш-массивов, которые начинают появляться в организациях различного масштаба и предназначены как раз для высоких нагрузок ВМ на диски.

Специально для таких пользователей компания VMware провела тесты для последовательных и случайных операций при работе с виртуальными дисками различного типа, используя для этого дисковые массивы с SSD-накопителями.

Результаты оказались интересны - диски типа Thin и Lazy zeroed серьезно уступают в производительности дискам Eager zeroed, когда дело касается нагрузок случайного типа.

Использованная тестовая конфигурация:

  • Сервер Dell R910 с 40 ядрами и 256 ГБ оперативной памяти.
  • Дисковый массив Pure FA-420 FlashArray с двумя полками, на которых 44 флэш-диска по 238 ГБ каждый (суммарно 8.2 ТБ полезной емкости).
  • Виртуальная машина Windows 2008 R2 Virtual Machine следующей конфигурации: 4 vCPU, 8 GB RAM, 40 GB OS/Boot Disk, 500 GB Data Disk.
  • Инициатор SW iSCSI для карточки 10 Gb.

Таблица результатов тестов, сделанных с помощью IOMETER для различных размеров блоков:

Тип диска Операций чтения-записи (Write IOps ) Скорость записи (Write MBps) Среднее время отклика (Average Response Time, ms)
4K
Thin

3105.31

12.13

0.32

Thin  Random

421.65

1.65

2.37

Lazy Thick

3097.94

12.10

0.32

Lazy Thick  Random

421.65

1.65

2.37

Eager Thick

3298.12

12.88

0.30

Eager Thick  Random

3112.70

12.16

0.32

64K
Thin

1070.54

66.91

0.93

Thin  Random

410.51

25.66

2.43

Lazy Thick

1088.20

68.01

0.92

Lazy Thick  Random

408.46

25.53

2.45

Eager Thick

1211.65

75.73

0.82

Eager Thick  Random

1141.34

71.33

0.87

256K
Thin

566.34

141.58

1.76

Thin  Random

341.37

85.34

2.93

Lazy Thick

567.09

141.77

1.76

Lazy Thick  Random

342.75

85.69

2.92

Eager Thick

648.77

162.19

1.54

Eager Thick  Random

668.88

167.22

1.49

Из таблицы видно, что все диски на последовательных нагрузках показывают примерно одинаковый результат, а вот на Random-нагрузках уже совершенно другая картина. Все это более наглядно можно увидеть графиков, где диски Thin и Lazy zeroed существенно проседают по производительности:

Вывод - не все йогурты одинаково полезны. Для высокопроизводительных нагрузок желательно использовать диски типа Eager zeroed - хуже точно не будет. Единственный их минус - требуется существенное время на их создание, поскольку происходит обнуление блоков. Но если ваш дисковый массив поддерживает примитивы VAAI, то много времени не понадобится: например, в том же тесте диск Eager zeroed размером 500 ГБ создался менее чем за одну минуту.


Таги: VMware, Storage, Performance, vSphere, SSD

Что лучше - одна или несколько дисковых групп на хосте ESXi кластера VMware Virtual SAN?


Мы достаточно часто пишем о средстве для создания отказоустойчивых кластеров VMware Virtual SAN (статьи можно найти по тэгу VSAN). Не так давно мы писали про документ, который позволяет правильно выбрать серверное оборудование для создания кластеров VSAN, а в этой заметке на основе информации от Дункана Эппинга, мы расскажем о выборе дисков для Virtual SAN.

Как известно, на одном хосте VMware ESXi, являющимся узлом VSAN, может быть до пяти дисковых групп (Disk Groups), каждая из которых содержит один SSD-диск и от 1 до 7 HDD-дисков:

Возникает резонный вопрос, что лучше - иметь одну дисковую группу большой емкости или несколько дисковых групп емкостью поменьше. Например, у вас такие требования к кластеру VSAN:

  • Всего нужно емкости : 20 ТБ
  • Всего емкости флэш-накопителей (10% по best practices): 2 ТБ
  • Всего хостов ESXi: 5

В этом случае на каждом хосте можно использовать одну из двух альтернативных конфигураций:

  • 2 x 2 ТБ SAS-диска и 1 x 400 ГБ флэш-диск (одна дисковая группа)
  • 4 x 1 ТБ SAS-диска и 2 x 200 ГБ флэш-диска (две дисковых группы)

Тут получается три аспекта, на которые влияет выбор конфигурации:

  1. SSD-диск+HDD-диски дисковой группы являются единой точкой отказа (fault domain), так как отказ единственного SSD-накопителя приведет к отказу дисковой группы в целом. В случае отказа флэш-накопителя данные вы, конечно, не потеряете, но понадобится некоторое время, чтобы восстановить избыточную конфигурацию. Так что чем больше групп, тем лучше.
  2. С точки зрения производительности - также лучше иметь две дисковых группы. Как вы знаете SSD-диск используется для кэширования данных, а один диск большей емкости, хоть и выжимает больше IOPS, но не намного. То есть, в первом случае, например, вы будете получать на кэше 36 000 IOPS, а во втором 2 x 32 000 IOPS. Аналогично, больше иопсов будут выжимать и HDD-диски. Очевидно, второй случай с точки зрения производительности - выгоднее.
  3. Затраты - здесь надо балансировать между оптимальной емкостью SSD-накопителей и HDD-дисков. Диски большой емкости, начиная с какой-то точки, стоят намного дороже. Тут второй вариант тоже в плюсе.

Итого - несколько дисковых групп на хосте небольшой емкости лучше одной гигантской дисковой группы.


Таги: VMware, VSAN, Virtual SAN, Hardware, Performance, HA, Blogs

Мониторинг отказоустойчивого кластера VMware Virtual SAN в графической консоли - VSAN Observer.


Тем из вас, кто развернул средство для создания отказоустойчивых кластеров VMware Virtual SAN, может потребоваться мониторинг состояния кластера в разрезе использования различных вычислительных ресурсов на хостах ESXi, а также виртуальными машинами.

Для этого есть специальная утилита с графическим интерфейсом VSAN Observer, которая позволяет через веб-интерфейс наблюдать за кластером VSAN. По умолчанию на сервере VMware vCenter она отключена.

Чтобы включить ее, делаем следующее:

1. Если вы используете VMware vCenter Virtual Appliance, то нужно запустить Ruby-консоль следующей командой:

rvc username@localhost

Здесь вводим логин и пароль администратора vCenter.

Если вы используете vCenter Server для Windows, то эту консоль можно запустить следующим bat-файлом (логин-пароль аналогичны предыдущему пункту):

%PROGRAMFILES%\VMware\Infrastructure\VirtualCenter Server\support\rvc\rvc.bat

2. Используем команды cd и ls, чтобы перейти в рабочий каталог VSAN:

cd localhost

cd VSAN

3. Запускаем веб-сервер VSAN Observer командой:

vsan.observer ~/computers/VSAN --run-webserver --force

4. После этого запускаем консоль VSAN Observer, перейдя по ссылке:

http://<vCenter Server>:8010

На первой вкладке мы видим дэшборд с различными характеристиками хост-серверов VMware ESXi, входящих в состав кластера Virtual SAN:

На вкладке VSAN Disks (per-host) мы видим уже графики на уровне отдельных физических дисков хостов:

На вкладке VSAN Disks (deep-dive) мы смотрим детальные параметры дисков на уровне отдельного хоста ESXi, включая кэширующий SSD-диск и HDD-диски с данными.

Каждый график можно развернуть отдельно, просто нажав на него:

На вкладке PCPU можно отслеживать параметры загрузки процессоров хост-серверов, обслуживающих кластер VSAN:

То же самое, но касательно памяти:

На вкладке Distribution можно смотреть информацию относительно баланса кластера - равномерно ли загружены его ресурсы:

Вкладка DOM Owner похожа на первую вкладку - говорят она для техподдержки VMware:

А вот вкладка VMs - полезная штука. Тут можно смотреть за производительностью на уровне отдельных виртуальных дисков конкретных ВМ, использующих ресурсы хранения кластера VSAN.

Также тут можно узнать, на каких хостах находятся реплики виртуальных дисков VMDK конкретной ВМ:

Ну а если вы хотите использовать VSAN Observer на сервере VMware vCenter под Windows, то команда ниже позволит вам добавить соответствующее правило в его сетевой экран:

netsh advfirewall firewall add rule name = "VMware RVC VSAN Observer" dir = in protocol = tcp action = allow localport = 8010 remoteip = localsubnet profile = DOMAIN


Таги: VMware, VSAN, Monitoring, Observer, Performance, ESXi, HA

Режим высокой производительности для требовательных виртуальных машин в VMware vSphere 5.5 (Latency Sensitivity).


Не все администраторы VMware vSphere знают о том, что в версии vSphere 5.5, компания VMware сделала специальную настройку для виртуальных машин - Latency Sensitivity. Она позволяет снизить издержки на виртуализацию для виртуальной машины в случае, когда требуется ее производительность близкая к нативной (то есть почти без потерь на нужды слоя виртуализации).

Найти ее можно в vSphere Web Client, если выбрать нужную ВМ, перейти на вкладку Manage, далее выбрать Settings->VM Options и в разделе Advanced Settings перейти на опцию Latency Sensitivity:

Там можно выбрать значения Low, High, Medium и Normal, однако значения Medium и Normal в vSphere 5.5 являются экспериментальными, поэтому пока можно использовать только Low (по умолчанию) и High (режим высокой производительности для чувствительных нагрузок).

Детально о том, что конкретно делает этот режим, можно почитать в документе "Deploying Extremely Latency-Sensitive Applications in VMware vSphere 5.5", мы же здесь приведем основные моменты.

Итак, если вы ставите Latency Sensivity для виртуальной машины в значение High, происходит следующее:

Виртуальная машина получает эксклюзивный доступ к физическим ресурсам хоста

  • Планировщик CPU хоста ESXi определяет возможность того, может ли быть предоставлен эксклюзивный доступ виртуального процессора vCPU к физическому процессору (ядру) сервера pCPU, учитывая реальное состояние процессора (нагруженность, over-commit и прочее). При возможности происходит резервирование pCPU для виртуального процессора на 100%. В этом случае никакие другие vCPU и трэды не могут быть исполнены на этом pCPU (включая VMkernel I/O threads).
  • Возможность latency-sensitivity требует от пользователя установки резервирования памяти (Memory Reservation), чтобы выделенная виртуальной машине память не была ненароком отдана другой машине средствами Memory Ballooning. Это позволит дать гарантию, что машина всегда будет иметь в своем распоряжении четко выделенный сегмент физической оперативной памяти хоста ESXi, даже в случае недостатка ресурсов на хосте.

Обход слоя виртуализации

  • Как только машина получила эксклюзивный доступ к pCPU, ее виртуальный процессор может напрямую взаимодействовать с его ресурсами в обход планировщика VMkernel. Это ликвидирует затраты на переключение между VMkernel и монитором виртуальных машин (VMM), однако переключения между исполнением кода гостевой ОС и VMM по-прежнему остаются (но это делается очень быстро за счет технологий аппаратной виртуализации, которые есть сейчас в любом процессоре).

Тюнинг механизмов виртуализации на хосте

  • Когда в качестве виртуального сетевого адаптера (VMNIC) виртуальной машины используется устройство VMXNET3, то функция Interrupt coalescing и поддержка LRO отключаются, чтобы уменьшить время отклика и джиттер. Если виртуальной машине не нужны такие функции, как vMotion, NetIOC и Fault tolerance, то можно и нужно использовать механизмы проброса сетевого устройства напрямую в виртуальную машину (pass-through) через механизм Single-root I/O virtualization (SR-IOV). Поддержка этого механизма появилась еще в VMware vSphere 5.1, но была существенно доработана в версии 5.5.

Вкратце это все, но больше новых подробностей о требовательных ко времени отклика виртуальных машинах можно почерпнуть из приведенного выше документа.


Таги: VMware, vSphere, Performance, ESXi, VMachines

Обновился документ vSphere 5.5 Monitoring and Performance - мастрид для администраторов VMware.


На днях компания VMware обновила свой главный документ о производительности и мониторинге виртуальной инфраструктуры - VMware vSphere 5.5 Monitoring and Performance.

В этом документе (или даже, можно сказать, книге) на 175 страницах рассказывается о лучших практиках по отслеживанию производительности серверов VMware ESXi 5.5 под управлением VMware vCenter 5.5.

Основное содержание документа:

  • Monitoring Inventory Objects with Performance Charts - полное описание графиков и счетчиков производительности в VMware vCenter.
  • Monitoring Guest Operating System Performance - немного о мониторинге гостевой ОС виртуальной машины.
  • Monitoring Host Health Status - проверка жизнедеятельности хостов и выявление проблем.
  • Monitoring Storage Resources - построение отчетов по хранилищам и графическое представление Storage maps.
  • Monitoring Events, Alarms, and Automated Actions - просмотр событий для объектов vCenter, алармы и действия по срабатыванию триггеров.
  • Monitoring Solutions with the vCenter Solutions Manager - мониторинг расширений vCenter.
  • Performance Monitoring Utilities: resxtop and esxtop - утилиты для мониторинга производительности из командной строки (там же есть расшифровки всех счетчиков). Об этом мы пишем тут.
  • Monitoring Networked Devices with SNMP and vSphere - мониторинг хостов по протоколу SNMP и настройка агентов.
  • System Log Files - просмотр активностей виртуальной инфраструктуры в лог-файлах журналов.

Документ обязателен к прочтению системным администраторам VMware vSphere, а также всем тем, кто готовится к различным экзаменами, например VMware VCP.


Таги: VMware, vSphere, Performance, Whitepaper, Update

Как ведет себя кластер VMware Virtual SAN (VSAN) в случае сбоев дисков или хоста VMware vSphere / ESXi.


Мы уже много писали о технологии VMware Virtual SAN (VSAN), которая позволяет создать отказоустойчивый кластер хранилищ для виртуальных машин на основе комбинации SSD+HDD локальных дисков серверов VMware ESXi. Не так давно вышла обновленная бетаэтого решения, кроме того мы не так давно писали о производительности VSAN тут.

В этой заметке (на базе статьи Дункана) мы поговорим о том, как кластер VSAN обрабатывает сбои различного типа, и как происходит восстановление работоспособности виртуальной машины без ее простоя.

Итак, в нормальном режиме функционирования, при значении параметра FailuresToTolerate равном 1, который означает, какое количество отказов хостов может пережить кластер хранилищ, реплика одного VMDK будет размещена на дисках еще одного из хостов кластера:

Тут можно заметить 5 особенностей кластера VMware VSAN:

  • Виртуальный диск VMDK и его реплика всегда находятся на разных хост-серверах VMware vSphere.
  • ВМ не обязательно должна исполняться на том хосте ESXi, на дисках которого находятся ее хранилища.
  • Компонент witness находится на третьем по отоношению к виртуальному диску и его реплике хосте, чтобы создать определенность на случай разделения сети VSAN (где окажется 2 компонента из набора "vmdk-реплика-witness" - тот сегмент и будет определяющим).
  • Сеть VSAN используется для операций ввода-вывода и определения доступности.
  • Реплика VMDK-диска вместе с основной копией образуют RAID-1 массив, который увеличивает производительность операций чтения в виртуальной машине, так как для чтения используются оба хранилища.

Кроме того, вследствие особенностей реализации кластера VSAN, надо понимать, что команды ввода-вывода не применяются к диску данных виртуальной машины, пока не пришло подтверждение об их записи на реплике. Но подтверждение приходит не от HDD-диска, где находятся данные ВМ (это было бы очень медленно), а от SSD-диска, который используется как энергонезависимый Write Buffer для команд ввода вывода. Таким образом, этот буфер (и данные, само собой) зеркалирован в рамках дисковой группы на другом хосте ESXi.

Теперь рассмотрим различные виды сбоев в кластере VSAN.

1. Ломается диск дисковой группы, где исполняется виртуальная машина.

Выглядит это так:

В этом случае такой диск сразу же помечается как "degraded", а команды ввода-вывода перенаправляются на другой хост-сервер VMware ESXi. При этом виртуальная машина этого не замечает, так как переключается на работу с SSD-буфером/кэшем и HDD-дисками другого хоста мгновенно (данные на момент сбоя были синхронизированы, ничего не потерялось).

Одновременно с этим сразу же начинается процесс построения реплики на другом хосте ESXi в рамках его дисковой группы, при этом проверяется, достаточно ли там свободных дисковых ресурсов. Если их недостаточно, то механизм VSAN будет ожидать. Как только вы добавите диски/дисковые группы на хостах - сразу же начнется процесс построения реплики (до его окончания машина будет помечена как "degraded").

Тут надо отметить, что в degraded-состоянии скорость записи данных останется прежней, простоя не будет, а вот скорость чтения упадет до построения новой реплики, поскольку второй копии данных пока нет.

2. Отказывает хост VMware ESXi целиком.

В этом случае запускать процесс восстановления сразу же, конечно, не нужно - мало ли что могло случиться с хостом, например, его случайно перезагрузили, или временно пропало сетевое соединение.

В этом случае происходит ожидание в течение 60 минут, и если отказавший хост ESXi не оживет, то начнется процесс создания реплики виртуального диска VMDK на другом хосте. Это время можно изменить в расширенной настройке кластера VSAN.ClomRepairDelay, но пока не известно будет ли это поддерживаться со стороны VMware.

3. Отказ SSD-диска в дисковой группе.

В кластере VMware Virtual SAN поддерживается 1 SSD-диск и до 7 HDD-дисков в одной дисковой группе. Всего на один хост VMware ESXi поддерживается до 5 дисковых групп.

В данном случае Failure Domain - это вся дисковая группа, включающая в себя SSD-диск, который используется для двух типов операций:

  • Read Cache (70% емкости) - безопасное кэширование операций на чтение. На SSD-диске хранятся наиболее часто используемые блоки, что уменьшает I/O read latency для ВМ.
  • Write Buffering (30% емкости) - когда приложение внутри гостевой ОС пытается записать данные, оно получает подтверждение записи тогда, когда данные фактически записаны на SSD (не на HDD), таким образом твердотельный накопитель используется как буфер на запись, что небезопасно при внезапном пропадании питания или отказе хоста. Поэтому данные этого буфера дублируются на других хостах кластера и их SSD-дисках.

Таким образом, при отказе SSD-диска, виртуальная машина начинает использовать реплику на уровне всей дисковой группы на другом хосте VMware ESXi. Вот почему выгодно делать две дисковых группы 3HDD+1SSD, чем одну  6HDD+1SSD.

Вот, в общем-то, и все. Более подробно об использовании SSD-дисков, их производительности и ресурсе можно прочитать вот в этой статье.


Таги: VMware, VSAN, HA, Performance, Storage, ESXi, vSphere

Новый Fling на VMware Labs: Real-Time Audio-Video Test Application (RTAV).


Как знают многие администраторы VMware, на сайте проекта VMware Labs часто появляются полезные штуки и мы про них так же часто пишем. На этот раз очередная нужная вещь для пользователей VMware Horizon View - средство тестирования аудио и видео в реальном времени в виртуальном ПК - Real-Time Audio-Video Test Application (RTAV).

Приложение позволяет убедиться в том, что производительность аудио и видео в реальном времени удовлетворительная, путем непрерывного воспроизведения виртуального видеопотока с веб-камеры и замыкания на себя аудио-дорожки:

(надо отметить что при использовании видео+аудио режима они могут быть несинхронизированы - это нормально, для приложений все будет работать синхронно)

Раньше надо было ставить в виртуальной машине какой-нибудь Skype или WebEx, чтобы протестировать производительность, а теперь ничего такого делать не надо - просто ставите утилиту RTAV в виртуальном ПК и все. Кроме этого, это приложение можно использовать и для нагрузочного тестирования инфраструктуры VMware Horizon View.

Возможности утилиты:

  • Отображение картинки с веб-камеры в режиме разрешения 1:1.
  • Автоматический старт передачи картинки сразу после запуска (аудио-поток будет замкнут на себя, если выбран этот вариант, то audio-in будет перенаправлен на audio-out).
  • Не требуется создавать никаких аккаунтов.
  • Поддержка устройства VMware Virtual Webcam, а также физических камер ноутбуков и ПК.
  • Работа как на x86, так и на x64 операционных системах.

Для приложения потребуется установить пакет Microsoft 2008 C++ x86 (SP1) вот по этой ссылке.

Скачать Real-Time Audio-Video Test Application (RTAV) можно по этой ссылке.


Таги: VMware, Labs, View, Horizon, VDI, Performance

3D-ускорение VDI на практике (NVIDIA GRID). ТЕСТЫ. Часть 1.


Отсутствие аппаратного ускорения графики является существенным препятствием при внедрении технологий виртуализации в компаниях, работающих в сфере дизайна, проектирования, конструкторских разработок и пр. Рассмотрим, какие новые возможности появились с выходом адаптеров, предназначенных специально для работы с 3D-графикой NVIDIA GRID. Классный пост компании ИТ-ГРАД - с реальными тестами.


Таги: NVIDIA, GRID, VDI, IT Grad, VMware, Citrix, Performance

Как добавлять и сравнивать данные о производительности VMware ESXi, полученные средствами ESXTOP, с помощью Windows Perfmon.


Мы очень много писали о том, как с помощью утилиты esxtop можно собирать с хостов VMware ESXi данные о производительности и различные метрики (например, тут и тут). Данные, полученные с помощью этой утилиты, очень часто помогают разобраться в источнике проблем в части вычислительных ресурсов, хранилищ и сетевого взаимодействия.

В этой заметке мы поговорим немного о визуализации данных esxtop. Не так давно мы писали об утилите VisualEsxtop, которая как раз тем самым и занимается - строит графики по наборам данных. Но недавно мы наткнулись на простой способ, позволяющий с помощью Windows Perfmon сравнивать наборы данных esxtop с разных хостов ESXi.

1. Итак, сначала нужно собрать данные с хоста ESXi в пакетном режиме в файл .csv. Например:

esxtop -b -d 10 -n 360 > esxtopresults.csv

Здесь:

  • -b - означает пакетный режим работы утилиты.
  • -d (delay) - промежуток между срезами сбора данных.
  • -n - число число таких срезов (сэмплов).

В данном случае будет собрано 360 сэмплов данных с промежутком в 10 секунд, то есть сбор займет 1 час.

Можно сжать результаты, чтобы экономить место на хосте, командой:

esxtop -b -d 10 -n 360 | gzip > esxtopresults.csv.gz

2. Загружаем данные в Windows Perfmon, выбрав источник - наш файл csv:

Визуализируем нужные счетчики:

3. Пробуем добавить еще один csv с другого хоста ESXi (с которым мы хотим сравнить данные первого хоста), но нам говорят, что так нельзя - можно такие файлы смотреть только по одному:

Не беда - сохраняем данные как бинарный файл с расширением *.blg, выбрав нужные счетчики:

Дальше просто удаляем этот файл из источников данных Perfmon, добавляем второй csv-файл и так же сохраняем его как *.blg.

Ну а дальше оба этих файла добавляем по одному - и все работает:

Добавляем сохраненные счетчики:

И данные с обоих хостов показываются на одном графике:

Источник заметки: www.viktorious.nl.


Таги: VMware, ESXi, esxtop, perfmon, Windows, Performance, vSphere

Обновление VMware Virtual SAN Beta - и сравнение производительности с каким-то Flash-массивом.


Мы уже писали о технологии VMware Virtual SAN, которая сейчас находится в режиме бета-тестирования. Кроме того, мы затрагивали тему производительности виртуальных ПК VMware Horizon View на хранилищах Virtual SAN (там про то, что VSAN масштабируется почти без потерь производительности).

Сегодня мы хотим рассказать еще о двух вещах. Во-первых, компания VMware выпустила обновление беты Virtual SAN, которое получило следующие новые возможности:

  • AHCI fix - как писала VMware ранее, была проблема с контроллерами AHCI, которая приводила к потере данных на устройствах VSAN (см. PDL, Permanent Device Loss). Теперь эту проблему исправили, и можно продолжать тестирование на этих контроллерах.

  • New RVC Commands - теперь в Ruby Virtual Console, которая входит в состав VMware vCenter 5.5, есть команды по управлению хранилищами в пространстве имен spbm (Storage Policy Based Management). Существующие политики можно найти в папке "~/storage/vmprofiles".

  • PowerCLI fling - многим пользователям интересна автоматизация задач в VMware vCloud Suite. Теперь и для VSAN есть набор командлетов PowerCLI, которые позволяют управлять хранилищами VSAN. Более подробно об этом здесь.

  • Limit Changes - в первой бета-версии дисковая группа могла иметь 1 SSD-Накопитель и до 6 HDD-дисков, но поскольку есть серверы, в которых восемь слотов, то HDD-дисков теперь поддерживается до 7 штук (SSD по-прежнему один).

Во-вторых появилась третья статья в серии про Virtual SAN - "VDI Benchmarking Using View Planner on VMware Virtual SAN – Part 3" из цикла статей, где делаются всяческие замеры производительности хранилищ VSAN.

В этот раз сравнивалось некий дисковый массив "all flash storage array", который работает на SSD-накопителях, и 7-ми и 8-ми узловые кластеры Virtual SAN. Результаты в очках, поставленных VDImark (View Planner QoS), поставленные кластеру из хостовых хранилищ и дисковому массиву:

Напомним, что очки VDImark - это число виртуальных машин, которое может быть запущено на данной аппаратной конфигурации с соблюдением определенного порогового значения для операций (на самом деле минимум 95% операций должны попасть в эти трешхолды для ВМ, чтобы их засчитали).

Результаты тестов оказались весьма неплохими. Картинка для тестов по времени отклика операций группы А (интерактивные операции пользователя):

Группа B:

Вывод: Virtual SAN - очень неплох в сравнении с нативной производительностью какого-то SSD-массива (VMware, что это за массив-то??).

Ну и ссылки на все статьи цикла:


Таги: VMware, VSAN, Update, Beta, Virtual SAN, Storage, SSD, Hardware, Performance

Кэш аппаратного контроллера и кэш StarWind - нужен ли последний, когда есть первый?


Уже довольно давно мы писали про техники кэширования в продукте StarWind iSCSI SAN & NAS, который предназначен для создания отказоустойчивых iSCSI-хранилищ под виртуальные машины. Эти техники постоянно совершенствуются (см., например, новые возможности StarWind V8 Beta 2) и иногда в разы увеличивают быстродействие виртуальных машин, особенно в условиях высоких требований к подсистеме ввода-вывода.

У некоторых пользователей возникает вопрос - а нужно ли использовать кэш StarWind, когда на сервере используется SAS-адаптер со своим кэшем, например, HP Smart Array P420, имеющий на борту 1GB RAM. На форуме StarWind Антон отвечает на этот вопрос следующим образом:

  • У кэша контроллера весьма ограниченный объем, а StarWind может использовать очень большой объем RAM для оптимизации ввода-вывода.
  • Кэш контроллера медленный, так как использует шину PCIe, а кэш StarWind - быстрый, так как использует шину оперативной памяти.
  • Кэш контроллера небезопасен - только одна копия данных. При использовании кэширования StarWind метаданные дублируются и даже "триплируются" при использовании трехузлового кластера. Вероятность, что все хосты кластера хранилищ упадут одновременно - очень низка.
  • Кэш контроллера работает только для одного узла, то есть когда ВМ переезжает с этого узла - она уже не имеет доступа к своему кэшу. StarWind же имеет умную систему распределенного кэша между узлами, и когда виртуальная машина переезжает на другой хост кластера хранилищ, она продолжает его использование.

Таким образом, вывод прост - конечно же, включайте кэширование на уровне SCSI-адаптера, но не подразумевайте это как альтернативу кэшированию StarWind, так как последнее - более умная и эффективная технология, разработанная изначально для виртуальных машин.


Таги: StarWind, iSCSI, SAN, Caching, Hardware, Performance

Документы: что такое VMware vSphere Flash Read Cache (vFlash) и официальный FAQ.


Мы уже писали про распределенный кэш на SSD-накопителях локальных дисков серверов ESXi, который имел рабочее название vFlash, а затем превратился в полноценную функцию VMware vSphere Flash Read Cache платформы VMware vSphere 5.5.

Сегодня мы хотим обратить внимание на два интересных документа, которые раскрывают подробности использования этой технологии.

Напомним, что Flash Read Cache позволяет использовать кэширование данных только на чтение для дисков VMDK виртуальных машин, работает она на уровне гипервизора и существенно улучшает производительность виртуальных машин, которые интенсивно используют подсистему ввода-вывода для операций на чтение. Очевидно, что SSD-кэш, который по производительности находится между оперативной памятью и обычными дисками, существенно повышает быстродействие в системах, где периодически наблюдается недостаток ресурсов RAM. Все это дело работает в кластере до 32 хостов ESXi.

Итак, первый документ о том как работает технология Flash Read Cache - "What’s New in VMware vSphere Flash Read Cache":

В этом документе описано, как работает инфраструктура vFlash в рамках виртуальной инфраструктуры vSphere, для каких целей можно использовать данную технологию, требования, а также шаги по установке и настройке этого механизма.

Второй документ - это официальный FAQ VMware по технологии Flash Read Cache - "VMware vSphere Flash Read Cache 1.0 FAQ". Так как она появилась впервые, и не все технические особенности ясны администраторам, в документе даны ответы аж на 67 вопросов.

Интересные факты из этого FAQ:

  • В качестве интерфейсов накопителей поддерживаются SATA, SAS и PCI Express.
  • До 8 устройств vFlash на один хост ESXi и до 4 ТБ емкости на устройство (до 400 ГБ на один VMDK). На один контейнер VFFS (то есть на хост) поддерживается до 32 ТБ.
  • В качестве хранилищ ВМ механизмом поддерживаются тома VMFS/NFS/vRDM (pRDM не поддерживается).
  • Настраивается только через Web Client.
  • При изменении настроек vFlash все кэши для дисков сбрасываются.
  • Thin provisioning не поддерживается технологией vFlash.
  • При миграции виртуальной машины средствами vMotion можно использовать 2 политики: Always migrate the cache contents (copy) - кэш копируется вместе с ВМ и Do not migrate the cache contents (drop) - кэш очищается. Техники VMware HA / SVMotion также полностью поддерживается.
  • Механизм VMware DRS при миграции не затрагивает машины с включенным Virtual Flash Read Cache.
  • Операции, которые очищают кэш ВМ: suspend, изменение конфигурации, удаление, перезапуск машины или хоста, восстановление из снапшота. Операции, которые не очищают кэш: снятие снапшота, клонирование, миграция vMotion, fast suspend/resume.
  • В vCenter есть 3 специальных метрики для мониторинга vFlash (IOPS, Latency и объем кэша).
  • Кэшем vFlash можно управлять через ESX CLI: get –m <module> -c <cache file name>
  • Файлы кэша vFlash находятся в следующей директории на хосте: /vmfs/volumes/vffs/vflash

Информацию об официально поддерживаемых механизмом VMware vSphere Flash Read Cache устройствах можно найти по этой ссылке: http://www.vmware.com/resources/compatibility/search.php?deviceCategory=vfrc


Таги: VMware, vSphere, vFlash, ESXi, Storage, Performance, Whitepaper

Производительность кластера хранилищ VMware VSAN для виртуальных ПК VMware View при масштабировании.


Мы уже писали о технологии VMware VSAN, которая позволяет построить распределенный кластер хранилищ на базе локальных дисков серверов VMware ESXi. Этот кластер позволяет отказоустойчиво хранить виртуальные машины и обращаться к ним с любого из хостов. Недавно компания VMware опубликовала результаты тестов работы ВМ в VDI-инфраструктуре на базе хранилищ VSAN.


Таги: VMware, VSAN, Performance, ESXi, Storage, VDI, View, Planner

Число ядер на виртуальный процессор виртуальной машины в VMware vSphere - производительность.


Как многие знают, еще в прошлых версиях VMware vSphere появилась такая возможность, как задание нескольких виртуальных ядер для vCPU виртуальных машин (cores per socket), которое требуется, в основном, для случаев хитростей с лицензированием. То есть, например, для случаев, когда требуется покрыть лицензиями только виртуальные сокеты, а производительности нужно больше (как вариант - так можно поступать с лицензиями Windows Server не Datacenter Edition).

Многих также заботит вопрос, повлияют ли изменения, сделанные тут, на производительность ВМ. Ответ прост - возможно, если вы изменяете дефолтную конфигурацию и ставите больше одного виртуального ядра на виртуальный процессор. Поэтому без лицензионной надобности лучше эти настройки не менять.

Рекомендации тут просты:

  • Оставлять по одному ядру на виртуальный процессор машин.
  • Если все-таки приходится изменять число ядер на vCPU, то нужно знать особенности организации архитектуры сервера.

Про второй пункт и идет речь ниже. Дело в том, что в VMware vSphere есть такая технология как vNUMA, которая работает при количестве vCPU равном 8 и больше для одной виртуальной машины и позволяет самым оптимальным образом отображать физическую архитектуру сервера на топологию NUMA-узлов виртуальной машины (по количеству и размеру).

Например, для процессора AMD Opteron 6174, который имеет два 6-ядерных процессора, объединенных в единый сокет - такая архитектура представляет собой 8 NUMA-узлов (две пары на один процессор). Таким образом для конфигурации без изменения cores per cpu для виртуальной машины технологией vNUMA будет поддерживаться 8 vNUMA узлов, что отлично отражает физическую архитектуру:

Это для случая, когда мы не изменяем количество ядер на vCPU. В VMware прогнали тест в гостевой ОС (какая-то внутренняя утилита) и получили базовое время исполнения этого бенчмарка для указанной конфигурации:

Если же в ВМ ядер на виртуальный сокет больше одного, то размер vNUMA будет равен количеству процессоров ВМ. Выставляем 2 сокета с 12 ядрами на сокет:

Получаем 2 vNUMA-узла, что не совпадает с конфигурацией оборудования:

Поэтому тест выполняется подольше:

А вот если сделаем целых 24 ядра на один сокет:

То получим всего один узел vNUMA:

И как следствие, самую низкую производительность ВМ:

65 секунд против 45 в первом тесте, что означает падение производительности на 31% для данного случая. Поэтому не меняйте просто так число ядер на процессор. Само же количество процессоров можно менять смело.

Дополнительную информацию по этому вопросу можно найти тут:


Таги: VMware, ESXi, vNUMA, Memory, VMachines, vSphere, Performance

Документ о производительности платформы vSphere 5.5: Performance Best Practices for VMware vSphere 5.5.


Сразу после релиза обновленной версии платформы vSphere 5.5 компания VMware выпустила очень интересный и полезный документ Performance Best Practices for VMware vSphere 5.5, в котором рассматриваются аспекты производительности серверов VMware ESXi и виртуальных машин уже с учетом функциональности новой версии.

Например, теперь в документе описаны следующие фичи в контексте производительности:

  • Функции кэширования на SSD-накопителях vSphere Flash Read Cache, о которых мы писали вот тут. Они увеличивают производительность за счет применения кэша на чтение для операций ввода-вывода виртуальных машин.
  • Возможность VMware Virtual SAN (VSAN), о которой мы писали тут. Она позволяет использовать локальные ресурсы хостов ESXi для построения распределенной инфраструктуры хранения виртуальных машин.
  • База данных VMware vFabric Postgres database (vPostgres).

Кроме того, были обновлены и дополнены следующие темы в документе (который уже можно смело называть книгой, так как занимает он 90 страниц):

  • Использование нагрузок в ВМ, чувствительных к скорости подсистемы ввода-вывода и сетевому взаимодействию (интересна также статья в тему)
  • Техники NUMA и Virtual NUMA (vNUMA)
  • Техники экономии памяти хоста (Memory overcommit)
  • Технология Large memory pages
  • Техника Receive-side scaling (RSS), как в гостевых ОС, так и для адаптеров 10 Gigabit Ethernet
  • Средства миграции VMware vMotion, Storage vMotion, а также Cross-host Storage vMotion
  • Техники балансировки нагрузки VMware Distributed Resource Scheduler (DRS) и экономии электропитания Distributed Power Management (DPM)
  • Обновленный (а точнее полностью переписанный) VMware Single Sign-On Server (об этом у нас тут)


Таги: VMware, vSphere, Performance, Whitepaper, ESXi, VMachines, vCenter, vSAN, SSD

Вышла новая версия утилиты VMware View Planner 3.0 - симуляция нагрузки и тестирование производительности инфраструктуры виртуальных ПК.


Не так давно мы писали про утилиту VMware View Planner 2.0, которая позволяет смоделировать и организовать нагрузочное тестирование инфраструктуры виртуальных ПК на платформе VMware Horizon View.

Не так давно было выпущено обновление этого средства - VMware View Planner 3.0, которое теперь можно свободно скачать с этой страницы.

View Planner 3.0 имеет следующие возможности:

  • Тестирование производительности для реальных моделей нагрузок на основе популярных приложений.
  • Уникальная технология для измерения производительности виртуального ПК для адекватного замера пользовательских метрик.
  • Методология, позволяющая повторять тесты и масштабировать их.
  • Метрики, позволяющие определить сильные стороны инфраструктуры - глубину размещения виртуальных ПК, производительность и экономическую эффективность.
  • Поддержка последних версий VMware vSphere и VMware Horizon View.
  • Улучшенные отчеты по статистикам.
  • Автоматически генерируемые отчеты в PDF.

Суммарный отчет View Planner 3.0 предоставляется в виде метрики VDImark. Эта метрика показывает, сколько пользователей может использовать виртуальные ПК VMware View без превышения заданных пороговых значений задержек (response time) для приложений.

Операции, проверяемые View Planner 3.0, разделены на три группы:

  • (1) Group A - базовые интерактивные операции (пороговое значение - 1 секунда).
  • (2) Group B - операции ввода-вывода (I/O operations).
  • (3) Group C - операции в фоновом режиме (пороговое значение - 6 секунд)

При тестировании VDI-инфраструктуры с помощью View Planner в этой статье использовалась следующая базовая конфигурация оборудования (замерялись значения для 3,5 и 6 хостов ESXi при такой нагрузке - 285 ВМ (3 хоста), 480 ВМ (5 хостов) и 560 ВМ (6 хостов)).

Результаты получились весьма ровными и попадающими в нужные диапазоны:

Как минимум 95% ВМ попадали в эти пороговые значения, что является весьма неплохим результатом для такого количества машин, размещенного на протестированном оборудовании.

Несколько детальнее по самим тестам операций группы А:

По тестам операций группы Б:

Результаты по IOPS:

Более подробно о VMware View Planner 3.0 можно почитать по этой ссылке. Скачать его можно по этой.


Таги: VMware, View, Planner, VDI, Performance

Новый fling на VMware Labs - VisualEsxtop для отображения счетчиков и визуализации вывода esxtop.


Мы много пишем о проекте VMware Labs, созданный для того, чтобы инженеры VMware выкладывали там свои наработки, которые не были оформлены в виде конечных продуктов компании (заметки об этом можно найти у нас по тэгу Labs).

На этот раз на VMware Labs появилась по-настоящему полезная штука - VisualEsxtop. Как можно догадаться из названия, эта утилита, написанная на Java, позволяет визуализовать данные о производительности в реальном времени, выводимые командой esxtop. Утилита кроссплатформенная и работает под Windows и Linux как .bat или .sh сценарий.

Возможности VisualEsxtop:

  1. Соединение как с отдельным хостом ESXi, так и с vCenter Server.
  2. Гибкий способ пакетного вывода результатов.
  3. Загрузка результатов пакетного вывода и его "прогонка" (replay).
  4. Возможность открыть несколько окон для отображения различных данных одновременно.
  5. Визуализация в виде графика выбранных счетчиков производительности.
  6. Гибкий выбор и фильтрация счетчиков.
  7. Тултип на ячейках счетчиков, объясняющий их назначение (см. картинку).
  8. Цветовое кодирование важных счетчиков.

Также VisualEsxtop можно заставить работать под Mac OS X - для этого почитайте вот эту статью.

Скачать VisualEsxtop можно по этой ссылке. Четырехстрочная инструкция доступна тут.


Таги: VMware, Labs, VisualEsxtop, esxtop, ESXi, vCenter, Performance

Исследование Project Virtual Reality Check Phase VI - Microsoft Office значительно тяжелеет.


Время от времени мы пишем об исследованиях Project Virtual Reality Check, которые проводят компании Login Consultants и PQR в сфере виртуализации. На этот раз стал доступен отчет "Phase VI – Best practices and impact of Microsoft Office 2007, 2010 and 2013 in VDI", который является продолжением исследования про влияние антивирусов на производительность виртуальных ПК.

Этот отчет посвящен работе различных версий Microsoft Office (2007, 2010 и 2013) в виртуальных ПК в составе VDI-решения. Интересные разделы документа:

  • Office 2007 v.s. Office 2010 v.s. Office 2013
  • Office 2013 Performance Tuning
  • Win 7 x86 Office 2010 x86 v.s. Win 7 x64 Office 2010 x86
  • Win 7 x64 Office 2010 x86 v.s. Win 7 x64 Office 2010 x64
  • Win 7 x86 Office 2010 x86 v.s. Win 7 x64 Office 2010 x64
  • Office 2010 Indexing On vs. Off

Познавательна картинка, полученная с помощью Login Virtual Session Indexer (VSI):

И вывод исследователей:

Comparing both Microsoft Office 2010 and 2013 with Office 2007 there is a negligible capacity impact of 1% with Office 2010, but there is a very substantial difference of 20% with Office 2013. As a result, upgrading to Office 2013 requires 20% more VDI capacity in comparison to Office 2007 and Office 2010.

То есть, готовьтесь увеличивать свои мощности под прожорливый офис.


Таги: Microsoft, VDI, Performance, VSI, VRC, Update, VMachines

<<   <    1 | 2 | 3 | 4 | 5 | 6 | 7 | 8 | 9 | 10 | 11 | 12 | 13    >   >>
Интересное:





Зал Славы Рекламодателя
Ближайшие события в области виртуализации:

Быстрый переход:
VMware Enterprise Offtopic Broadcom VMachines Veeam Microsoft Cloud StarWind NAKIVO vStack Gartner Vinchin Nakivo IT-Grad Teradici VeeamON VMworld PowerCLI Citrix VSAN GDPR 5nine Hardware Nutanix vSphere RVTools Security Code Cisco vGate SDRS Parallels IaaS HP VMFS VM Guru Oracle Red Hat Azure KVM VeeamOn 1cloud DevOps Docker Storage NVIDIA Partnership Dell Virtual SAN Virtualization VMTurbo vRealize VirtualBox Symantec Softline EMC Login VSI Xen Amazon NetApp VDI Linux Hyper-V IBM Google VSI Security Windows vCenter Webinar View VKernel Events Windows 7 Caravan Apple TPS Hyper9 Nicira Blogs IDC Sun VMC Xtravirt Novell IntelVT Сравнение VirtualIron XenServer CitrixXen ESXi ESX ThinApp Books P2V VCF Operations Certification Memory Kubernetes NVMe AI vSAN VMConAWS vDefend VCDX Explore Tanzu Workstation Private AI Update Russian Ports HCX Live Recovery CloudHealth NSX Labs Backup Chargeback Aria VCP Intel Community Ransomware Stretched Network VMUG VCPP Data Protection ONE V2V DSM DPU Omnissa EUC Avi Skyline Host Client GenAI Horizon SASE Workspace ONE Networking Tools Performance Lifecycle AWS API USB SDDC Fusion Whitepaper SD-WAN Mobile SRM ARM HCI Converter Photon OS VEBA App Volumes Workspace Imager SplinterDB DRS SAN vMotion Open Source iSCSI Partners HA Monterey RDMA vForum Learning vRNI UAG Support Log Insight AMD vCSA NSX-T Graphics HCIBench SureBackup Docs Carbon Black vCloud Обучение Web Client vExpert OpenStack UEM CPU PKS vROPs Stencils Bug VTL Forum Video Update Manager VVols DR Cache Storage DRS Visio Manager Virtual Appliance PowerShell LSFS Client Availability Datacenter Agent esxtop Book Photon Cloud Computing SSD Comparison Blast Encryption Nested XenDesktop VSA vNetwork SSO VMDK Appliance VUM HoL Automation Replication Desktop Fault Tolerance Vanguard SaaS Connector Event Free SQL Sponsorship Finance FT Containers XenApp Snapshots vGPU Auto Deploy SMB RDM Mirage XenClient MP iOS SC VMM VDP PCoIP RHEV vMA Award Licensing Logs Server Demo vCHS Calculator Бесплатно Beta Exchange MAP DaaS Hybrid Monitoring VPLEX UCS GPU SDK Poster VSPP Receiver VDI-in-a-Box Deduplication Reporter vShield ACE Go nworks iPad XCP Data Recovery Documentation Sizing Pricing VMotion Snapshot FlexPod VMsafe Enteprise Monitor vStorage Essentials Live Migration SCVMM TCO Studio AMD-V Capacity KB VirtualCenter NFS ThinPrint VCAP Upgrade Orchestrator ML Director SIOC Troubleshooting Bugs ESA Android Python Hub Guardrails CLI Driver Foundation HPC Optimization SVMotion Diagram Plugin Helpdesk VIC VDS Migration Air DPM Flex Mac SSH VAAI Heartbeat MSCS Composer
Полезные постеры:

Постер VMware vSphere PowerCLI 10

Постер VMware Cloud Foundation 4 Architecture

Постер VMware vCloud Networking

Постер VMware Cloud on AWS Logical Design Poster for Workload Mobility

Постер Azure VMware Solution Logical Design

Постер Google Cloud VMware Engine Logical Design

Постер Multi-Cloud Application Mobility

Постер VMware NSX (референсный):

Постер VMware vCloud SDK:

Постер VMware vCloud Suite:

Управление памятью в VMware vSphere 5:

Как работает кластер VMware High Availability:

Постер VMware vSphere 5.5 ESXTOP (обзорный):

 

Популярные статьи:
Как установить VMware ESXi. Инструкция по установке сервера ESXi 4 из состава vSphere.

Типы виртуальных дисков vmdk виртуальных машин на VMware vSphere / ESX 4.

Включение поддержки технологии Intel VT на ноутбуках Sony VAIO, Toshiba, Lenovo и других.

Как работают виртуальные сети VLAN на хостах VMware ESX / ESXi.

Как настроить запуск виртуальных машин VMware Workstation и Server при старте Windows

Сравнение Oracle VirtualBox и VMware Workstation.

Диски RDM (Raw Device Mapping) для виртуальных машин VMware vSphere и серверов ESX.

Работа с дисками виртуальных машин VMware.

Где скачать последнюю версию VMware Tools для виртуальных машин на VMware ESXi.

Что такое и как работает виртуальная машина Windows XP Mode в Windows 7.

Как перенести виртуальную машину VirtualBox в VMware Workstation и обратно

Подключение локальных SATA-дисков сервера VMware ESXi в качестве хранилищ RDM для виртуальных машин.

Как поднять программный iSCSI Target на Windows 2003 Server для ESX

Инфраструктура виртуальных десктопов VMware View 3 (VDI)

Как использовать возможности VMware vSphere Management Assistant (vMA).

Интервью:

Alessandro Perilli
virtualization.info
Основатель

Ратмир Тимашев
Veeam Software
Президент


Полезные ресурсы:

Последние 100 утилит VMware Labs

Новые возможности VMware vSphere 8.0 Update 1

Новые возможности VMware vSAN 8.0 Update 1

Новые документы от VMware

Новые технологии и продукты на VMware Explore 2022

Анонсы VMware весной 2021 года

Новые технологии и продукты на VMware VMworld 2021

Новые технологии и продукты на VMware VMworld 2020

Новые технологии и продукты на VMware VMworld Europe 2019

Новые технологии и продукты на VMware VMworld US 2019

Новые технологии и продукты на VMware VMworld 2019

Новые технологии и продукты на VMware VMworld 2018

Новые технологии и продукты на VMware VMworld 2017



Copyright VM Guru 2006 - 2026, Александр Самойленко. Правила перепечатки материалов.
vExpert Badge